MICROÉLECTRONIQUE

MICROÉLECTRONIQUE
MICROÉLECTRONIQUE

La microélectronique et l’informatique n’en finissent pas d’étonner par leurs performances, tant dans les domaines technique qu’économique. Il est peu de secteurs d’activité qui n’aient déjà été profondément modifiés par leur impact, et il est à prévoir de nouvelles avancées qui révolutionneront nos modes de vie. Alors que le micro-ordinateur a été inventé vers 1975 et commercialisé en masse à partir de 1980, il existait déjà plus de 120 millions d’ordinateurs personnels en 1992 et nous avons maintenant du mal à imaginer le bureau sans machine de traitement de texte. Déjà première industrie mondiale en volume d’activité devant l’automobile depuis 1990, on prévoit pour l’électronique une croissance annuelle de 10 à 12 p. 100 d’ici à l’an 2000, alors que les autres industries sont en faible progression, en stagnation, ou en légère récession, la croissance économique – hors électronique – à venir se produisant essentiellement du côté des services. Cette croissance de l’industrie électronique a trois origines: la plus grande sophistication des produits existants, ce qui amène à de grands et rapides marchés de renouvellement; l’apparition incessante de nouveaux marchés (que l’on songe à l’évolution de la télévision, du noir et blanc à la couleur, au magnétoscope, au caméscope, au vidéodisque...); enfin, la pénétration par l’électronique de bien d’autres secteurs d’activité tels l’automobile, le bâtiment, etc. À l’origine et au cœur de cette explosion se situe bien sûr la microélectronique.

Face à cette prodigieuse percée d’un monde qui n’existait pratiquement pas au début des années 1960, on cherche à évaluer le progrès réalisé et à entrevoir ce que l’avenir nous réserve. Comment décrire la performance actuelle? Quels ont été les moyens qui ont permis d’y parvenir? Où sont les limites de l’extrapolation «raisonnée» des réalisations actuelles? Y a-t-il des percées conceptuelles qui permettraient d’aller encore bien plus loin? Telles sont sommairement les questions les plus simples que l’on est amené à se poser, et auxquelles nous tenterons de répondre.

1. Un essor prodigieux

La microélectronique a progressé simultanément dans quatre domaines d’un million de fois depuis ses origines, vers la fin des années 1960, jusqu’au milieu des années 1990, c’est-à-dire en un quart de siècle (fig. 1). C’est la conjonction de ces quatre progressions énormes qui a rendu possible l’existence même de la performance de la microélectronique telle que nous la connaissons. Le premier facteur, le plus connu, est l’intégration de plus en plus élevée de circuits «actifs» sur un même support, la puce de silicium (typiquement, un morceau de plaquette de dimensions 10 mm 憐 10 mm avec une épaisseur de 0,4 mm). Limités à un transistor, quatre résistances et un condensateur lors de l’invention de Jack S. Kilby, de Texas Instruments, en 1958, et à quelques transistors et résistances lors de la mise sur le marché des premiers circuits, vers le milieu des années 1960, les circuits actuels produits en masse contiennent quelques millions de transistors, typiquement de 5 à 6 pour les mémoires dynamiques, dites DRAM, de 4 mégabits (c’est-à-dire contenant quatre millions de bits d’information, soit 400 pages de texte; cf. MÉMOIRES NUMÉRIQUES). Au niveau du laboratoire, on en est bien plus loin, au niveau de 64 mégabits, voire de 256 mégabits. Ce premier facteur de un million a été rendu possible par les techniques de miniaturisation de plus en plus poussées. Un deuxième facteur est la réduction, dans les mêmes proportions, du coût d’une fonction élémentaire: un transistor coûtait de 1 à 2 dollars en 1960; le grand circuit «simple» à maturité (la mémoire 1 mégabit), comprenant 1,2 million de transistors, coûte de l’ordre de 3 à 4 dollars (courants, non corrigés de l’inflation!), ce qui permet d’utiliser aussi facilement (du point de vue du coût) ces circuits à un million de transistors que les transistors discrets! Ainsi s’explique la formidable pénétration des circuits intégrés dans tous les domaines d’activité: leur coût à performance constante diminue sans cesse, de 30 p. 100 environ par an. Troisième facteur, le rendement de fabrication: il faut évidemment augmenter ce rendement par transistor de un million si l’on veut avoir un rendement de fabrication du circuit complet égal à celui qui était obtenu quand on fabriquait les transistors un par un en 1960. Enfin, la fiabilité doit être augmentée d’un million si l’on veut pouvoir utiliser les circuits sans qu’ils connaissent plus de pannes que les transistors discrets. C’est à cette condition que l’on peut utiliser des grands ensembles de circuits intégrés dans les superordinateurs sans que le taux de panne soit gênant.

Ces quatre facteurs de un million ont été rendus possibles par la fabrication des circuits par des méthodes hautement parallélisées (s’apparentant beaucoup à l’imprimerie) et dont la reproductibilité fait l’objet d’efforts incessants (fig. 2). L’idée est de fabriquer en une seule opération technologique tous les éléments de même nature sur la puce, en fait sur toute une plaquette de silicium (disque de diamètre normalisé égal à 6 ou 8 pouces, soit 15 ou 20 cm, permettant la découpe ultérieure de plus de 100 puces), voire, pour certaines opérations, sur un ensemble de plaquettes (jusqu’à 25). Le report des motifs géométriques représentant les différents éléments des circuits intégrés se fait par une méthode lithographique, où l’image désirée, préalablement dessinée sur un masque par des parties opaques et transparentes, est projetée par illumination sur un matériau photosensible déposé sur la plaquette de silicium. L’attaque chimique du matériau photosensible exposé permet ensuite le transfert du motif sur le matériau situé sous la résine photosensible. C’est ainsi que l’on peut réaliser le réseau de fils conducteurs d’interconnexion entre les différents éléments d’un circuit intégré en découpant un film métallique préalablement déposé. Bien entendu, cette description est très simplifiée: on doit prévoir l’isolation électrique entre les fils métalliques et les composants semiconducteurs; on dépose donc des matériaux isolants (souvent de l’oxyde de silicium, ou silice, Si2) entre le semiconducteur silicium et le film métallique à découper; cela ne suffit pas, car il se produirait des croisements entre fils; on dépose donc des couches successives d’isolants et de conducteurs métalliques, de manière que les différentes interconnexions métalliques nécessaires à la fonctionnalité ne se court-circuitent pas. Les autres ingrédients essentiels de la fabrication sont nombreux: pour faire les transistors, on doit incorporer de manière contrôlée des impuretés chimiques dans la plaquette de silicium; cette opération, le dopage , a été longtemps effectuée en plaçant les plaquettes de silicium portées à haute température dans une atmosphère gazeuse contenant les atomes d’impuretés à incorporer; grâce à l’agitation thermique, ceux-ci diffusent alors à l’intérieur du cristal de silicium. Pour avoir une meilleure résolution spatiale dans les opérations de dopage critiques, on utilise maintenant un bombardement localisé des zones à doper par des ions d’impuretés grâce à des accélérateurs de particules appelés implanteurs ioniques.

Deux chiffres donnent une idée du parallélisme de fabrication obtenu: si l’on dépose en une seule opération les trois contacts métalliques aux trois électrodes des transistors d’un ensemble de 25 plaquettes portant chacune 100 puces de 4 mégabits, on fabrique environ 3 憐 100 憐 25 憐 5 000 000, soit trente-sept milliards et demi de soudures! On peut aussi découper sur un film conducteur déposé sur le silicium les deux cent cinquante millions de fils conducteurs entre composants discrets permettant la fonctionnalité de l’ensemble! Que l’on imagine la «forêt» que représenteraient tous ces fils s’ils étaient soudés un à un par des techniques conventionnelles, ainsi que les risques de défaut.

Après ces quelques chiffres représentatifs des circuits intégrés, nous décrirons successivement leurs limites physiques, les mises en œuvre dans les ordinateurs, les applications futures, enfin les bouleversements possibles.

2. Les limites physiques aux circuits intégrés

Les trois éléments électroniques de base des circuits intégrés sont le transistor, la résistance et le condensateur, à partir desquels on sait réaliser, en les interconnectant sur la puce, l’ensemble des fonctions requises par l’«intelligence» informatique (fig. 3), essentiellement l’analyse combinatoire logique et la mémorisation. Quelles sont les limites physiques au bon fonctionnement des éléments et des interconnexions?

Le bon fonctionnement du transistor comme interrupteur «parfait» (fig. 4) suppose tout d’abord qu’il ne conduise pas lorsqu’il est ouvert (tension de grille V G = 0), qu’il ait une très faible résistance au passage du courant en position fermée (V G = tension «1» logique), que la commande ne fuie pas, c’est-à-dire que le courant passant de l’électrode de grille au canal conducteur soit à peu près nul. La deuxième condition ne pose pas de problème sérieux, mais la première et la troisième imposent des limites aux dimensions du transistor. Pour simplifier l’analyse, on discute volontiers la physique de la diminution de taille des éléments des circuits intégrés en introduisant un paramètre 見 de diminution de l’échelle des éléments, qui passent d’une taille 1 à une taille 1/ 見 (fig. 5). Par cette «loi d’échelle», la taille linéaire des éléments décroît de 見, et leur densité surfacique augmente de 見2. On peut aussi montrer que, en principe, le fonctionnement du transistor se faisant à champ électrique accélérateur constant entre source et drain (donc à vitesse v des électrons constante), le potentiel électrique de commande décroît de 見. Nous verrons que cette loi d’échelle ne peut être parfaitement respectée. Si cependant elle l’était, la vitesse d’un composant, déterminée en première approximation par le temps mis par un électron pour passer sous la grille, de longueur L G, de la source au drain, soit L G/v , croîtrait d’un facteur 見. On voit ainsi qu’en réduisant les dimensions d’un facteur 見 = 10, on gagne un facteur 1 000 sur la «puissance logique» d’un circuit intégré de surface donnée (100 pour la densité des transistors, 10 pour leur vitesse).

On a donc intérêt à réduire les dimensions jusqu’aux limites, énoncées plus haut, du fonctionnement «parfait» du transistor. Cela ne va pas sans difficulté: pour assurer la cohérence des matériaux et des technologies mises en œuvre pour opérer la diminution des dimensions et profiter pleinement des lois d’échelle «parfaites» telles que prédites sur la figure 5, il faut remettre en cause une bonne partie du savoir-faire à chaque génération de circuits. Des limitations physiques ultimes apparaissent cependant. Tout d’abord, le bon fonctionnement du transistor suppose que, en l’absence de tension appliquée à la grille, les régions vides de porteurs autour de la source et du drain ne se rejoignent pas, sinon la barrière de potentiel empêchant les électrons de passer d’une région à l’autre serait trop faible (fig. 4). On peut réduire l’extension de ces zones vidées en augmentant les dopages des régions n et p, mais cela n’est possible que jusqu’à une concentration limite en impuretés, de l’ordre d’une impureté pour dix mille atomes de silicium. Au-delà se posent des problèmes métallurgiques d’une part (agglomération entre eux des atomes d’impuretés pour former des amas métalliques), de conductivité électrique dégradée d’autre part. Il apparaît, à cause de cet effet des zones désertées, une limite à la longueur de grille de l’ordre de 100 nanomètres, peut-être de 50 nanomètres si l’on arrive à une parfaite maîtrise des dopages.

Les lois d’échelle imposent aussi à l’épaisseur d’isolant de la grille de décroître d’un facteur 見. À partir d’une épaisseur minimale de l’ordre de 4 nanomètres, l’isolant de grille se met à fuir par l’apparition d’un phénomène quantique, l’effet tunnel, qui permet aux électrons de passer à travers la barrière de potentiel constituée par l’isolant. L’effet tunnel est intimement lié à la nature ondulatoire de l’électron: à l’électron, comme à toute particule, est associée une onde, dite de De Broglie, qui régit son comportement sur les courtes distances. L’onde de De Broglie s’atténue exponentiellement dans un isolant sur une distance de l’ordre de quelques nanomètres. Quand l’isolant est épais, l’onde située d’un côté de l’isolant a une amplitude négligeable de l’autre côté, ce qui se traduit par une possibilité pour l’électron de passer de l’autre côté, si un champ électrique ou une concentration d’électrons moindre l’y attirent. Il y a alors passage de courant par effet tunnel.

Il existe d’autres limites physiques que ces simples limites géométriques à la longueur de canal et d’épaisseur d’isolant. La première concerne la tension logique, que l’on retrouve à la fois comme tension de commande de la grille et comme tension accélératrice des électrons entre source et drain. Cette tension logique doit être nettement plus grande que les fluctuations statistiques inévitables des niveaux de tension logiques «0» ou «1» afin d’éviter les erreurs logiques intempestives. Sans entrer dans le détail, disons qu’une excursion logique dix fois plus grande que les fluctuations prévisibles donne un taux d’erreur acceptable. Ces fluctuations sont essentiellement déterminées par l’agitation thermique – qui correspond, à la température ambiante, à 25 millivolts –, par les fluctuations statistiques du nombre d’impuretés dopantes sous la grille et, surtout, par le désordre technologique, correspondant aux fluctuations de dopage et de taille des éléments du transistor, qui donne une fluctuation de la tension de la commande de la transition du transistor d’ouvert à fermé de l’ordre de 100 millivolts. Par conséquent, l’excursion logique minimale doit être de l’ordre du volt, à moins que l’on ne progresse de manière décisive sur les fluctuations technologiques, ce qui semble improbable alors que l’on continue à miniaturiser. Cela constitue une des limitations aux lois d’échelle décrites plus haut. De plus, on souhaite garder un minimum d’«interopérabilité» entre composants électroniques de générations différentes. Cette standardisation nécessaire des tensions logiques fait que l’on ne change que très rarement les tensions logiques (un accord international existe entre fabricants). C’est ainsi que l’on est passés de 15 à 5 volts en 1975, puis à 3,3 V en 1989, bien en deçà de ce que permettent la loi d’échelle et la maîtrise technologique. Du coup, de nouveaux problèmes apparaissent quand les dimensions diminuent: le champ électrique (rapport entre tension et longueur) devient de plus en plus grand; les électrons sont plus énergétiques, ce qui a tendance à dégrader l’isolant. Il faut alors utiliser des géométries de dopage nouvelles, souvent complexes, pour contrôler le profil de champ électrique.

L’autre limite physique additionnelle concerne la puissance dissipée par les circuits électroniques. Sous peine d’échauffement inacceptable de la puce, on ne sait en extraire par conduction thermique que quelques watts par centimètre carré (20 W/cm2 au maximum en attachant la puce à un radiateur thermique qui est alors bien plus grand qu’elle!). Un argument simple permet de montrer que la puce ne saurait comporter de grands nombres de transistors fonctionnant tous en même temps : indépendamment de leur taille, les transistors délivrent un courant compris entre 0,1 et 1 milliampère, et nous avons vu que la tension minimale est de 1 volt. Cela signifie qu’un transistor fonctionnant en continu consomme de 0,1 à 1 milliwatt environ. Si la puissance maximale dissipable par la puce est de 5 watts par centimètre carré, cela signifie qu’il ne saurait y avoir plus de 5 000 à 50 000 transistors fonctionnant en continu. Cette valeur est tout à fait représentative des circuits actuels, qui fonctionnent ainsi, réseaux de portes logiques par exemple (et cela qu’ils soient à base de transistors à effet de champ tels que décrits jusqu’à présent ou à base de transistors bipolaires, plus anciens et non décrits dans cet article, encore pour un temps les plus rapides mais plus complexes à fabriquer). Le seul gain apporté par la miniaturisation à ces circuits limités en puissance dissipée est la faculté d’aller plus vite.

Il existe cependant des circuits intégrés de bien plus grande complexité, comportant quelques millions de transistors. Cela est possible parce que ces transistors sont le plus souvent dans un état où ils ne conduisent pas de courant du tout; il s’agit de la technologie CMOS (Complementary Metal-Oxide Semiconductor), où l’on associe les transistors deux à deux: l’un devant débiter du courant dans l’autre qui est ouvert, il ne passe aucun courant dans des conditions stationnaires! Le seul moment où passe du courant se situe lors de l’inversion de situation logique, puisque les rôles de transistor ouvert ou fermé sont inversés: un des canaux conducteurs se remplit d’électrons alors que l’autre se vide. Si C est la capacité du canal conducteur d’un transistor et si V est l’excursion logique, alors on a consommé CV 2 dans une opération logique. Pour les circuits actuels, C est de l’ordre de 10 femtofarads (10–14 F) et V = 5 volts, d’où CV 2 = 25 . 10–14 joule. La puissance maximale dissipable de 2 watts par centimètre carré conduit alors à une densité d’opérations logiques par centimètre carré et par seconde de 8 . 1012, que l’on exprime de manière équivalente en nombre d’opérateurs logiques (les «portes») multiplié par la fréquence d’opération: bien entendu, plus on fait de calculs par seconde, moins on peut faire d’opérations. C’est ainsi que l’on peut faire commuter 80 000 portes logiques à une fréquence de 100 mégahertz, ou 800 000 à une fréquence de 10 mégahertz. Avec la miniaturisation accrue, CV 2 diminue, et cette «puissance logique» par puce augmente.

Le dernier facteur limitant concerne la vitesse et est lié au temps de propagation du signal électrique sur les fils d’interconnexion. Il comporte deux expressions. Pour les temps plutôt longs, on peut caractériser une ligne d’interconnexion par sa résistance R et sa capacité C . Dans ce cas, le temps mis par la ligne à transmettre une information de bout en bout, c’est-à-dire pour que le changement de la tension électrique à un bout passe à l’autre bout, est égal au produit RC , qui, dans les lois d’échelle, croît malheureusement comme 見2 (il a fallu, bien entendu, réduire aussi les sections des conducteurs d’interconnexions quand on a réduit les dimensions des éléments actifs d’un circuit intégré pour pouvoir commander les éléments individuellement; en revanche, la longueur des interconnexions limitantes n’a pratiquement pas changé, du fait qu’elle est donnée par la taille des puces; du coup, R varie comme 見2 et C ne varie pas). Pour tirer le meilleur parti de la miniaturisation, il faut alors utiliser des matériaux conducteurs de plus en plus performants.

Où en sommes-nous? L’industrie est passée de traits de 8 micromètres en 1970 à 2 micromètres en 1980 et à 0,5 猪m en 1992 (fig. 5); l’intégration des circuits a crû beaucoup plus vite que le simple facteur d’échelle 見2 (qui n’aurait donné qu’un facteur 100), car on a appris à beaucoup mieux utiliser la surface disponible, et aussi parce que la taille des puces a crû dans l’intervalle de 10 à 100 millimètres carrés environ. La vitesse d’horloge a elle aussi crû plus vite, car l’intégration sur une seule puce permet de s’affranchir des interconnexions extérieures longues. L’objectif du grand programme européen J.E.S.S.I. est de 0,35 猪m en 1996. On atteindra 0,2 猪m vers l’an 2000, et la limite physique au transistor «classique», soit 0,1 猪m, vers 2005.

De cette discussion des limites physiques et technologiques à la miniaturisation, on aura aussi compris que, à mesure que les dimensions se réduisent, ce sont bien d’autres structures de composants et étapes technologiques qui sont mises en œuvre. Cela explique la rapide obsolescence (de trois à quatre ans) des usines de circuits intégrés puisque, en une (au pire) ou deux (au mieux) générations de circuits, tout est à changer: machines de lithographie, nature et mode de dépôt de matériaux, structure des transistors et des éléments mémoires... En même temps que la complexité s’accroît, il existe aussi une loi d’échelle sur le coût des investissements, qui augmente aussi (de l’ordre de 見 au moins). L’usine coûtait un million de dollars en 1965. Elle coûtait au moins 500 millions de dollars (courants) en 1994. Heureusement, la productivité augmente elle aussi!

3. La performance des ordinateurs

Nous avons vu que la performance des composants croissait comme 見3, que le nombre d’opérations logiques possibles par puce croissait comme entre 見 et 見3, suivant l’évolution du standard de tension logique. Comment varie alors la performance des ordinateurs? La figure 6 résume l’évolution des performances des différents types d’ordinateurs, que nous utiliserons comme indicateur du progrès des circuits intégrés.

La performance «théorique» se décrit à l’aide de plusieurs paramètres, plus ou moins liés à la performance obtenue dans le cas d’une application donnée: fréquence d’horloge (fréquence de travail à laquelle les différents éléments de l’ordinateur effectuent des opérations logiques), nombre de bits (taille des «mots» logiques sur lesquels on effectue les opérations logiques: par exemple, opération arithmétique sur des nombres comportant un plus ou moins grand nombre de chiffres – actuellement, la plupart des machines travaillent en 32 bits, les plus performantes en 64 bits), les MIPS (Millions of Instructions Per Second: millions d’instructions logiques effectuées par seconde par la machine), les mégaflops (millions d’opérations arithmétiques en virgule flottante), etc. Tous ces éléments ne donnent qu’une idée approximative de la performance relative des ordinateurs, puisque celle-ci variera suivant l’adéquation de la machine au problème posé, de la configuration de la machine (en particulier de ses échanges de données entre mémoire de masse, mémoire principale, unités de calcul), du langage informatique utilisé, de l’habileté du programmeur. C’est ainsi que l’on s’intéresse plutôt aux MIPS pour les ordinateurs de gestion et autres tâches séquentielles, alors que la performance en mégaflops est celle qui est importante en calcul scientifique, ainsi que le nombre de bits. Du coup, pour des comparaisons chiffrées précises, on utilise des programmes spécialisés, simples, les benchmarks , que l’on fait tourner sur des machines différentes. L’évolution dans le temps de la performance des différentes machines est donnée dans la figure 6 pour les superordinateurs (de type Cray), les gros ordinateurs standards (mainframe ), les mini-ordinateurs, les microprocesseurs (c’est-à-dire ceux qui intègrent sur une seule puce la plupart des fonctionnalités d’un ordinateur complet). Notons que s’il s’agit bien d’une comparaison quantitative sur une même application, elle désavantage les machines qui seraient mieux adaptées à des problèmes plus complexes, tels les superordinateurs, qui sont spécialement bien adaptés aux grands problèmes de calcul scientifique, où leur haut degré de parallélisme les rendent relativement bien plus performants qu’il n’apparaît en figure 6. Cependant, celle-ci traduit bien les phénomènes essentiels de l’évolution des performances: croissance de 25 p. 100 par an pour les ordinateurs, doublement annuel, depuis 1986, de la performance des microprocesseurs, qui rattrapent successivement les différents ordinateurs, de plus en plus gros. Comment en est-on arrivé là?

Le temps d’exécution d’un programme peut être exprimé comme le produit de trois termes:

– le nombre d’instructions (c’est-à-dire d’opérations) nécessaire pour exécuter le programme;

– le nombre de cycles d’horloge pour effectuer une instruction;

– la durée de chaque cycle d’horloge.

Chacun de ces trois facteurs a progressé, grâce bien sûr au progrès de la technologie des circuits intégrés, mais aussi à celui de la mise en œuvre de ces circuits dans l’ordinateur, que l’on désigne par le terme d’architecture de l’ordinateur, et enfin à celui de la programmation de l’ordinateur, que ce soit sous forme du logiciel utilisé, du programme lui-même (plus ou moins efficace) ou bien des algorithmes de calcul (il peut exister plusieurs manières d’exécuter une opération arithmétique par exemple). Ce sont ces trois autres facteurs, technologie, architecture et programmation, bien évidemment liés entre eux, qui ont simultanément progressé de façon «harmonieuse», de manière à utiliser au mieux les possibilités nouvelles de la technologie.

Les trois types d’ordinateurs standards, c’est-à-dire mini-ordinateurs, gros ordinateurs et superordinateurs, sont construits à partir de circuits intégrés spécialisés: mémoires de différents types, opérateurs spécialisés (circuits additionneurs, multiplicateurs...), circuits de gestion des communications... Ces circuits ont crû en puissance logique depuis les débuts de la microélectronique, mais leur nombre et leur variété sont tels que l’architecture globale est fort complexe et la mise en œuvre délicate. Comme la taille de l’ordinateur est forcément grande, les lignes d’interconnexions imposent des délais de propagation importants. Alors que les éléments logiques dans les circuits peuvent opérer à plus de 500 mégahertz, l’ensemble des circuits de l’ordinateur ne peut être commandé à plus de 10 à 50 mégahertz, soit un coefficient d’attrition de 10 à 50! Seuls les superordinateurs tirent leur épingle du jeu, en étant optimisés pour utiliser les circuits intégrés les plus rapides du moment et en les disposant de manière ultracompacte pour minimiser les délais. Le «prix à payer» est bien sûr celui d’une consommation d’énergie importante dans un volume restreint. Tout l’art consiste alors à concevoir une architecture spatiale optimisant les chemins suivis par l’information et à dissiper la puissance électrique nécessaire. Les supports des circuits intégrés, généralement des «sandwichs» de métaux et de céramiques bonne conductrices de la chaleur, sont percés en tous sens de cavités transportant des fluides de refroidissement. Ces efforts extrêmes entraînent un surcoût énorme par rapport aux architectures plus standards, mais permettent de fonctionner à des fréquences d’horloge de 200 mégahertz.

Les microprocesseurs partent d’une toute autre philosophie: il s’agit d’intégrer la plupart des fonctions de l’ordinateur, toutes si possible, sur une même puce! À cause de la faible intégration possible au début de l’ère des microprocesseurs (quelques milliers de transistors par puce), seule l’unité arithmétique a pu être intégrée sur le 4004 d’Intel, premier microprocesseur, en 1971, avec 2 300 transistors, et elle ne pouvait faire «que» 60 000 opérations de 4 bits par seconde. L’ensemble des éléments constituant un calculateur programmable pouvait cependant être réduit au 4004 et à trois autres circuits intégrés plus simples. À mesure que l’intégration a crû, on a bien sûr augmenté le nombre de fonctions effectuées, la vitesse, la longueur des mots logiques traités à chaque opération (le nombre de bits). On a aussi intégré sur la puce les circuits annexes indispensables au bon fonctionnement en «quasi-autarcie» du circuit intégré comme micro-ordinateur. Les microprocesseurs les plus performants sont au niveau des superordinateurs des années 1980! Ils fonctionnent à 200 mégahertz et effectuent 100 MIPS et 100 mégaflops, puissance de calcul d’un superordinateur Cray-1 à 10 millions de dollars en 1985. Leur performance vient d’un ensemble de facteurs améliorés: leur fréquence d’horloge est très élevée, car les interconnexions sont limitées à la puce; comme il y a de grandes mémoires sur la puce, les résultats de calculs peuvent être stockés en attendant d’être échangés avec le monde extérieur, ce qui prend habituellement beaucoup de temps à cause des interconnexions externes longues; enfin, ils incorporent une nouvelle architecture à nombre d’instructions «réduites», le RISC (Reduced Instruction-Set Computing), fondée sur un nombre d’instructions de base réduit par rapport à celui des machines classiques (à architecture CISC: Complex Instruction-Set Computing, cf. ORDINATEURS). La possibilité d’une telle approche vient de l’analyse du fonctionnement réel d’un ordinateur classique CISC: l’immense majorité des instructions utilisées pour l’exécution d’un programme ne concerne que quelques instructions de base, exécutables en un cycle d’horloge si l’on optimise pour cela le microprocesseur, ce qui est réalisable pour un nombre «réduit» d’instructions. Toutes les autres instructions, plus complexes mais beaucoup moins fréquentes, peuvent chacune être décomposées en quelques instructions simples. Par conséquent, l’exécution d’une instruction ne prendra en moyenne qu’un peu plus d’un cycle d’horloge. Pour effectuer en un cycle une opération complète, on s’arrange pour que différentes parties du microprocesseur travaillent en parallèle pour effectuer les différentes instructions nécessaires à l’opération complète; c’est ainsi qu’une opération de multiplication nécessite l’exécution de cinq instructions: lecture de l’opération à effectuer dans une mémoire de programmation; lectures des nombres à multiplier dans une mémoire de données; opération de multiplication; accès à la mémoire de données; rangement du résultat de la multiplication. Au lieu d’enchaîner les différentes opérations pour des multiplications successives, l’architecture «pipeline» fait effectuer ces instructions en parallèle aux différents éléments du microprocesseur, de manière décalée dans le temps. À un cycle donné, on met en mémoire le résultat de la N -ième opération, on effectue la (N +1)-ième opération, on lit les nombres concernés par la (N +2)-ième opération et enfin on lit l’instruction concernant la (N +3)-ième opération. On peut ainsi effectuer une opération par cycle d’horloge. Il est même possible d’aller plus loin: c’est le superpipeline, où l’on élargit le pipeline en traitant plus d’instructions à la fois, ou le pipeline «superscalaire», où l’on effectue avec le pipeline plusieurs instructions similaires à un instant donné.

C’est l’augmentation de l’autonomie du microprocesseur (permise par la technologie) et les nouveaux concepts architecturaux (RISC et pipelines) qui ont permis l’explosion de la performance des microprocesseurs depuis 1986. Cette progression continue au cours des années 1990.

Comment aller plus loin? On aura compris que l’approche du superordinateur, qui essaie de faire fonctionner de manière optimale un ensemble de puces séparément optimisées pour des fonctions simples, est vouée à l’échec à long terme: les interconnexions entre les circuits sont tellement pénalisantes en vitesse que la meilleure performance des circuits ne rattrape pas l’avantage des nouveaux microprocesseurs «autarciques» qui ne nécessitent que des liaisons sur la puce. L’avenir est donc à l’utilisation en parallèle de microprocesseurs haut de gamme. Idéalement, l’utilisation de N microprocesseurs devrait conduire à une performance (MIPS, MFLOPS...) augmentée d’un facteur N . Il y a bien entendu une dégradation de ce résultat: on n’arrive pas à utiliser à leur performance maximale à tout instant les N processeurs, les communications entre processeurs consomment du temps et de la puissance, les problèmes posés sont plus ou moins adaptés à une résolution par N machines travaillant en parallèle (c’est le «degré de parallélisme» de l’application); certains problèmes physiques s’y prêtent: c’est le cas de la résolution des équations de l’hydrodynamique qui, par la nature locale des écoulements, a une topologie très similaire (duale) à la topologie d’un réseau tridimensionnel de microprocesseurs; chacun calcule le mouvement local d’un fluide sous l’action du fluide voisin, et transmet, de proche en proche, le résultat trouvé à ses plus proches voisins.

Suivant la nature et la complexité du problème posé, on conçoit que l’on sache utiliser les N processeurs près de l’optimum en faisant un choix, soit en utilisant un grand nombre de processeurs simples (maillage fin), soit en utilisant un nombre faible de processeurs de hautes performances (maillage grossier). Pour de telles applications, la capacité d’échanger à grand débit des données avec l’extérieur est essentielle. C’est ainsi que, pour de telles applications, des microprocesseurs spécialisés consacrant une part importante des circuits actifs aux communications ont vu le jour, tels les transputers . Enfin, notons que de multiples topologies linéaires, bi ou tridimensionnelles sont possibles et utilisées, dépendantes des microprocesseurs utilisés et des applications envisagées.

4. La microélectronique: quels impacts à venir?

On l’a vu, le rythme de progrès de la microélectronique n’est pas près de diminuer, que ce soit du point de vue des circuits intégrés ou de celui de l’application directe, l’informatique. Qu’en est-il plus largement des applications en électronique et dans les autres secteurs d’activité?

Disons tout simplement que nous n’en sommes qu’au début de la révolution électronique: le microprocesseur commence à peine à pénétrer pleinement l’électronique. Quant aux autres domaines, c’est encore le balbutiement. En électronique grand public (vidéo et audio) par exemple, la grande révolution est celle du tout numérique. Par la numérisation et le traitement numérique de l’image et du son, on en finira avec tous les parasites et autres dégradations du signal. La compression des données permettra de transmettre beaucoup plus de canaux de télévision sur une seule fréquence (ce qui permettra un large choix de films à domicile), ou bien de transmettre le signal de télévision à haute définition sur le même canal que le signal actuel. La taille des enregistreurs vidéo et sonores diminue de manière considérable. D’ores et déjà, les caméscopes «intelligents» incorporent des circuits permettant la mise au point automatique sur le sujet au premier plan (même s’il est excentré par rapport au centre de l’image) et le contrôle du bougé de l’opérateur, en recadrant continûment l’image. L’ère de la télécommunication personnelle arrive avec les téléphones mobiles. Les machines de reconnaissance de la parole et de traduction automatique permettront de téléphoner et d’écouter dans sa propre langue un correspondant parlant lui aussi dans sa langue! Cet objectif de reconnaissance de la parole bouleversera l’informatique et la bureautique, puisqu’il provoquera la disparition du clavier, remplacé par le voix et le crayon servant à interagir directement avec l’écran. La puissance de calcul future permettra de nombreuses avancées: programmation en langage clair, interface homme-machine «amicale» (user-friendly ). Au-delà des nouveaux marchés unissant informatique et image, appelés multimédias, se profile la réalité virtuelle: en plaçant l’individu dans un environnement sensoriel de synthèse (image et son tridimensionnels) véridique, dans lequel il peut agir par un toucher des objets virtuels grâce à un gant de rigidité contrôlée par l’ordinateur ou se mouvoir en déplaçant image et son par rapport au mouvement de sa tête, on peut lui faire vivre de multiples expériences sans quitter son fauteuil. On imagine sans peine l’impact sur les jeux, l’apprentissage de la conduite et des métiers, etc.

Il est bien d’autres activités dans lesquelles l’électronique va pénétrer: le plus évident est celui de l’automobile, à la fois dans le véhicule seul (contrôle électronique de la motorisation, tenue de route et freinage électronique optimisés, dont la fonction ABS, sécurisation antivol, clé électronique...) et dans les interactions avec les autres véhicules et infrastructures (systèmes anticollisions, navigateur électronique optimisé en fonction des conditions de trafic...). L’électronique pénètre de plus en plus les autres industries dans leur essence, sinon à tout le moins dans les procédés de fabrication: on n’imagine plus un train de laminoirs qui ne soit commandé par ordinateur. Mais c’est dans la simulation qu’il y aura le plus de progrès. La microélectronique est bien sûr en pointe: elle simule déjà les composants électroniques, les circuits les plus complexes, les procédés de fabrication. Bientôt, l’ensemble sera intégré dans une «usine virtuelle» où l’on tiendra à jour les performances réelles des machines de fabrication afin d’optimiser les éléments du circuit intégré à fabriquer pour remplir une fonction prédéfinie. De même, de plus en plus, au lieu de faire des prototypes, le concepteur d’automobiles simulera sur ordinateur le véhicule à partir de quelques choix essentiels (gamme de prix, taille, esthétique...) et élaborera, à partir de là, les différents composants, les machines nécessaires à la fabrication, en incluant les autres facteurs essentiels que sont le coût, la qualité de fabrication, la fiabilité, la facilité de dépannage, etc.

L’électronique apparaît donc comme une industrie progressant de manière spectaculaire, générant sans cesse de nouveaux marchés et pénétrant progressivement tous les autres. Ces trois facteurs expliquent le rythme de croissance de l’électronique. La microélectronique étant elle-même à la base du progrès de l’électronique, rien d’étonnant à ce qu’on la qualifie de «pétrole» de l’industrie du futur, et, signe qui ne trompe pas, les circuits intégrés de base sont cotés à la Bourse des matières premières de T 拏ky 拏! Un chiffre permet d’évaluer cette formidable expansion: si l’on extrapole le rythme de croissance de la production de mémoires DRAM jusqu’en 2000 (et nous n’avons aucune raison de penser que ce rythme se ralentira), on trouve que la production par habitant de la Terre sera de 100 憐 64 mégabits, soit environ 10 milliards de bits (fig. 7). Quand on sait que le cerveau ne comporte «que» 100 milliards de neurones, on voit l’ampleur de cette production, que l’on retrouvera dans des produits variés. Bien entendu, le cerveau a une architecture remarquablement «efficace» et chaque neurone a une «fonctionnalité», grâce à ses 1 000 terminaisons ou synapses, bien plus élevée qu’un seul bit.

5. La microélectronique: quels bouleversements possibles?

On aura compris que la microélectronique «silicium» va encore largement progresser et permettra l’éclosion de multiples applications nouvelles.

Quels sont les autres aspects scientifiques et techniques de la microélectronique future? On l’aura remarqué, nous n’avons mentionné jusqu’ici que la microélectronique à base de silicium. Qu’en est-il de l’arséniure de gallium, dont les propriétés intrinsèques supérieures devaient en faire le matériau électronique du futur? De l’électronique moléculaire, dont les molécules ayant des fonctionnalités semblables à celles des composants semiconducteurs permettraient d’atteindre à la miniaturisation ultime? De l’ordinateur optique, avec son haut degré de parallélisme (une image de 1 000 points 憐 1 000 points permet d’effectuer des opérations parallèles sur 1 million de canaux d’informations) en propageant les signaux à la vitesse de la lumière? Des phénomènes physiques nouveaux qui, prenant le relais des phénomènes «classiques» à partir des dimensions où le fonctionnement «classique» du transistor n’est plus possible, permettraient néanmoins des composants et des circuits intégrés? Ces quatre voies de progression à partir de l’électronique en sont à des degrés de maturation très variés, et nous n’essaierons ici que d’en esquisser les contours. Disons simplement que les trois premières voies – remplacement du silicium par un autre matériau ou par des molécules, utilisation des faisceaux optiques – sont explorées depuis longtemps, et ne semblent pouvoir mener qu’à des utilisations partielles. La quatrième voie – l’utilisation de nouveaux phénomènes lorsque les dimensions des composants deviennent inférieurs au dixième de micromètre – ouvre la route de la nanoélectronique (à l’échelle du nanomètre) et est en pleine expansion.

Arséniure de gallium ou silicium?

L’arséniure de gallium possède sur le silicium l’avantage d’avoir des électrons qui se déplacent plus rapidement sous l’action d’un même champ électrique accélérateur. Cela mène à des composants électroniques plus rapides si l’on fonctionne à même tension logique, ou à une puissance électrique consommée plus faible à vitesse égale, grâce à la réduction possible de tension. Le gain de performance (vitesse ou puissance consommées) est de trois à cinq environ, ce qui peut paraître intéressant. Malheureusement, les circuits intégrés en arséniure de gallium reviennent beaucoup plus cher: le matériau ne s’obtient qu’en plaquettes de 3 à 4 pouces de diamètre (de 7,5 à 10 cm) au maximum, ce qui limite le nombre de circuits intégrés fabriqués en parallèles; sa physico-chimie se prête moins bien que le silicium aux associations de matériaux (semiconducteurs, isolants, métaux) requis par les circuits intégrés, ce qui rend les méthodes de fabrication plus délicates et les rendements de fabrication plus faibles. Ces handicaps limitent l’arséniure de gallium aux utilisations où il est absolument indispensable, à savoir lorsque l’on veut des circuits fonctionnant à des fréquences d’horloge supérieures à 1 gigahertz, ou bien lorsque la puissance dissipée par un circuit est limitante (forçant par exemple à passer d’un refroidissement par ventilation d’air à un refroidissement par fluide). L’utilisation des circuits intégrés en arséniure de gallium a pris de l’essor au début des années 1990 grâce à l’apparition de ces utilisations spécialisées. Remarquons que le gain de performance de 3 à 5 en faveur de l’arséniure de gallium est rattrapé en une ou deux générations de circuits silicium, ce qui oblige bien entendu l’industrie de l’arséniure de gallium à la même course à la performance que celle du silicium.

Vers l’ordinateur optique?

Le terme d’«ordinateur optique» recèle une ambiguïté. Alors que l’informatique habituelle permet de traiter par la programmation des problèmes dits universels, les systèmes à base d’optique ne se prêtent bien qu’à la résolution de certains problèmes, en particulier ceux qui concernent le traitement de signal et d’image. L’universalité de l’ordinateur électronique vient de la complète liberté que l’on a de stocker en mémoire les vecteurs de l’information, les électrons, et de les utiliser de manière déterministe dans des opérations combinatoires grâce aux réseaux d’interconnexions des circuits. Tel n’est pas le cas en optique: les particules lumineuses – les photons – ne se stockent pas et la mémoire à photons n’existe donc pas. Il est difficile de transférer un photon d’un point à un autre: il se propage en ligne droite (aux phénomènes de diffraction près). On peut certes faire des guides optiques de formes variées, mais ils sont d’une complexité de réalisation bien plus grande que celle du simple fil métallique conducteur. L’optique possède cependant certains atouts: elle utilise les trois dimensions de l’espace, puisqu’à une direction de propagation sont associées deux directions perpendiculaires suivant lesquelles on peut réaliser des images. Toute lentille réalise sur une image une opération algébrique extrêmement utile, la transformation de Fourier sur deux variables d’espace (les deux directions perpendiculaires à la propagation). Sans entrer dans le détail, mentionnons que cette opération est à la base de nombreuses applications spécialisées, telle la reconnaissance d’image. Comme on le voit, les spécificités de l’ordinateur optique en font plutôt un processeur de signal ou d’image. Bien qu’étudiés depuis la fin des années 1950, il semble que ce ne soit qu’à la fin de la décennie de 1990 que les premières mises en œuvre apparaîtront. En termes de puissance de calcul, les ordinateurs optiques de laboratoire donnent des performances très remarquables, jusqu’à 5 憐 1012 opérations par seconde (5 TOPS); encore faut-il insister sur le fait qu’il ne s’agit alors que d’opérations spécialisées de traitement de signal. La comparaison avec l’électronique doit se faire avec des circuits intégrés spécialisés pour une opération de traitement de signal, et qui ont donc des performances bien supérieures à celles des microprocesseurs universels: un circuit de traitement de signal tel que le STi 3220 pour l’analyse de mouvement d’images vidéo, comprenant un million de transistors réparti en 256 processeurs, a une puissance de calcul de 14 000 MFLOPS, alors qu’un microprocesseur de mêmes taille et technologie ne réalise que 50 MFLOPS.

L’électronique moléculaire

L’électronique moléculaire est elle aussi l’objet de beaucoup d’intérêt. On peut classer les concepts en trois degrés. D’abord, celui des fonctions simples de l’électronique: il s’agit de créer des matériaux et des assemblages de matériaux moléculaires capables de fournir les fonctions simples utilisées en électronique, en optique ou en optoélectronique; il s’agit donc de faire des conducteurs, isolants, semiconducteurs, émetteurs de lumière, matériaux non linéaires, capteurs chimiques... Le deuxième degré consiste à faire des circuits électroniques à la miniaturisation limite avec des molécules ayant individuellement des propriétés «actives» du type transistor, à la manière de l’électronique silicium; outre les molécules présentant de telles fonctionnalités, cela suppose des connexions, des comptabilités de commande entre éléments qui peuvent se commander l’un l’autre, des entrées-sorties, des possibilités de fabrication industrielle, de la fiabilité, de la longévité, etc. Le troisième degré consiste à faire des ensembles intelligents biomimétiques – remplissant une fonction complexe, auto-organisée, répondant à l’environnement extérieur, etc. – en jouant avec des senseurs, actionneurs et processeurs biologiques (ou biomimétiques).

Dans le premier degré, il existe quelques réalisations prometteuses de l’électronique moléculaire. On arrive à des conducteurs organiques ayant des conductivités de l’ordre de celle du cuivre. Les isolants moléculaires sont déjà très utilisés. Au niveau des matériaux semiconducteurs moléculaires, certaines fonctions simples ont été réalisées (diodes et transistors). Leur avantage réside dans le fait que l’on peut les déposer de manière conforme sur des substrats quelconques. Les capteurs chimiques sélectifs en association avec des composants électroniques standards représentent certainement un des domaines les plus prometteurs, grâce à la sélectivité des matériaux organiques, surtout biochimiques. Pour toutes ces applications, qui sont activement prospectées depuis longtemps pour la plupart, le progrès est cependant lent, ce qui incite à penser que la nature n’«aime» peut-être pas faire ces fonctions à partir de matériaux moléculaires. Si on est optimiste cependant, il se peut que l’on trouve des matériaux qui remplissent bien ces fonctions élémentaires, de manière reproductible et fiable dans le temps. On aurait alors des cellules solaires, des transistors souples à partir d’autres matériaux que le silicium. Il faut cependant réfléchir à l’avantage compétitif réel de tels matériaux.

Au-delà de ces matériaux organiques aux propriétés semblables à celles des matériaux minéraux, on souhaiterait disposer de molécules où la fonctionnalité du type diode ou transistor serait effectuée par une seule molécule! C’est le deuxième degré; on aurait alors des composants à l’échelle nanométrique, fonctionnant avec un ou quelques électrons, extrêmement faciles à réaliser: alors que l’on fabrique avec beaucoup de difficultés les composants de la nanoélectronique en «sculptant» les transistors, les composants «moléculaires» seraient directement fabriqués à l’échelle de la molécule par une réaction chimique. Malgré de nombreux efforts, la possibilité d’aboutir à des molécules ayant de telles fonctionnalités n’a pas encore été démontrée. Un des problèmes est bien sûr celui de la mise en évidence de tels effets à l’échelle de la molécule isolée. L’avènement du microscope à effet tunnel permet de résoudre ce problème, puisque la pointe d’un tel microscope pourrait servir d’électrode de test sur une extrémité active d’une molécule, les autres extrémités étant greffées chimiquement (donc sélectivement) sur des microélectrodes déposées sur un substrat. D’autres défis sont à relever, en particulier ceux qui concernent des contacts aux molécules et les interconnexions: comment arriver à une architecture contrôlée de molécules qui ont été fabriquées en «vrac» par des réactions chimiques? Quels sont les modes d’excitation et de transmission de l’information traitée? D’autres molécules pourraient-elles être greffées pour assurer ces fonctions? Les mécanismes physico-chimiques le permettant ne sont pas encore complètement identifiés. Cela amène tout naturellement à se poser la question de savoir comment la nature fait, donc à se poser la question de l’électronique biomimétique, troisième degré de l’électronique moléculaire. Il s’agit d’un sujet en pleine expansion, d’intérêt fondamental pour la connaissance, mais aussi parce que la nature, par l’évolution, a su résoudre de manière astucieuse certains problèmes. C’est ainsi que la vision implique un certain nombre de prétraitements de l’information au niveau de la rétine, avant le cerveau, qui simplifient beaucoup les «calculs» effectués dans le cortex. On commence à s’inspirer de telles architectures en microélectronique. Un autre cas très connu est celui de l’électronique neuronale, où l’on s’inspire de l’architecture du cerveau, à base de neurones interconnectés par des liaisons appelées synapses, pour élaborer des circuits spécialisés en reconnaissance d’objets, de lettres ou de paroles après un apprentissage qui détermine les interconnexions («synapses») du circuit électronique. On commence aussi à comprendre l’architecture de systèmes complets, tels les «moteurs» biologiques, même si certains des mécanismes de base sont encore mal connus.

Avec ses trois niveaux, l’électronique moléculaire pose de nombreux problèmes; tous ne seront pas résolus avant l’an 2000, mais on a affaire à un champ d’études tout à fait ouvert et passionnant.

La nanoélectronique

Décrivons tout d’abord le transistor de 1994 et son fonctionnement: il a une grille de l’ordre de 0,8 猪m de longueur, de 10 猪m de largeur. Le nombre d’électrons assurant la conduction est de l’ordre de 10 000 sous la grille. Soumis à un champ électrique accélérateur dû à la tension entre électrodes de source et drain, chaque électron est accéléré. Il est cependant freiné par les chocs sur des espèces chimiques étrangères au cristal de silicium ou sur des atomes de silicium déplacés de leur position d’équilibre par l’agitation thermique. Par conséquent, au lieu d’être uniformément accélérés, les électrons atteignent une vitesse limite. La distance entre chocs est de l’ordre de quelques nanomètres à température ambiante, ce qui implique au moins 10 000 chocs. Le mouvement dû à ces chocs est aléatoire, et ce n’est que la résultante du mouvement sur un grand nombre de chocs qui est rectiligne dans la direction de la force due au champ électrique et à vitesse constante sur le chemin entre les deux électrodes. Le courant passant à travers le transistor est donc la résultante du mouvement d’un grand nombre d’électrons effectuant chacun des mouvements aléatoires. Lorsque l’on réduit la taille des transistors, comme on a pu le faire en laboratoire au cours des années 1980 en utilisant des techniques de fabrication à l’échelle nanométrique, on voit apparaître le comportement aléatoire des trajectoires d’électrons individuels. C’est ce que l’on a appelé la physique mésoscopique (c’est-à-dire plus tout à fait macroscopique, où les effets sont moyennés sur un grand nombre de particules et d’événements, et pas encore microscopique ou quantique, où les effets sont dus à une seule particule suivant une trajectoire déterminée dans une configuration spatiale connue), dont la manifestation la plus spectaculaire est la fluctuation universelle de conductance due aux effets d’interférences entre chocs dans les métaux ou semiconducteurs dès lors que leurs dimensions deviennent suffisamment petites. Ce régime, détestable du point de vue des composants puisqu’il entraîne des fluctuations incontrôlables dans un composant et, surtout, entre composants, a été franchi à la fin des années 1980 pour entrer dans un régime complètement déterministe, celui qui permettra la nanoélectronique. Trois effets principaux permettent un tel fonctionnement: la quantification de la charge électronique, le mouvement balistique, les effets ondulatoires de l’électron.

La quantification de la charge électronique: l’électronique granulaire

Le rêve de l’électronicien est de réaliser un dispositif ne fonctionnant qu’avec un électron, ce qui est habituellement hors de question, car un seul électron pénétrant dans un composant électronique de taille «classique» n’en modifie pas les propriétés de manière perceptible. Il les modifie certainement, puisque, le composant s’étant chargé d’un électron supplémentaire, son potentiel électrique en a été modifié: il a diminué, ce qui correspond à une élévation de son énergie potentielle (à cause de la charge négative de l’électron). Pour un composant «ordinaire», cette variation est de l’ordre du microvolt, bien inférieure à toute fluctuation thermique, et est donc indétectable. On conçoit cependant que cette variation de potentiel soit relativement bien plus importante si le composant est très petit. De manière précise, cette variation est donnée par 嗀V = 嗀Q /C , où 嗀Q est la charge d’un électron et C la capacité électrique du composant. À des dimensions très faibles de composant (de l’ordre de 10 nm 憐 10 nm 憐 10 nm), la variation de potentiel vaut 1 volt pour une charge de 1 électron.

Un tel potentiel crée une barrière de potentiel énergétique, susceptible d’empêcher le passage d’électrons: un électron pénétrant le condensateur élève le niveau d’énergie du condensateur, empêchant un autre électron de pénétrer dans ce condensateur. Une image peut permettre de comprendre ce qui se passe: si l’on met une certaine quantité d’eau dans une écluse, le niveau d’eau monte. Pour mettre une quantité d’eau supplémentaire, il faut la soulever d’une hauteur supplémentaire dans le champ de pesanteur, donc lui communiquer plus d’énergie. La première quantité d’eau peut donc contrôler l’arrivée de la seconde. La mise en évidence de cet effet «d’écluse» avec des électrons a été effectuée pour la première fois en 1989 par une équipe comprenant des physiciens du C.E.A. à Saclay et de l’université de Delft. Depuis cette écluse à électrons, la même équipe a aussi réalisé un étalon de courant, en faisant passer dans un circuit un peu plus complexe un courant dont la valeur est déterminée de manière absolue en comptant les électrons un à un! De nombreuses variations ont vu le jour depuis lors, en arséniure de gallium et, surtout, en silicium.

Le mouvement balistique

La distance caractéristique entre les chocs dans un matériau, appelée libre parcours moyen, sur laquelle l’électron suit un mouvement sans collision, uniformément accéléré dans un champ électrique, dépend de la pureté du matériau et de la température. Habituellement de l’ordre du centième de micromètre à température ordinaire, pour des semiconducteurs «standards», cette distance peut atteindre jusqu’à 100 micromètres avec des semiconducteurs à très haute mobilité (association en hétérostructure d’arséniure de gallium et d’aluminiure de gallium) à très basse température. Dans ces matériaux, les effets balistiques ont été mis en évidence à la fin des années 1980 et les applications se multiplient. L’effet balistique a fait naître des composants électroniques de type nouveau: le mouvement habituel dû aux collisions est aléatoire et nécessite un grand nombre d’événements qui, moyennés, donnent une grandeur physique déterministe (aux fluctuations près, c’est-à-dire au bruit près) telle que le courant moyen. Lorsqu’un régime balistique est possible, le mouvement d’un seul électron est déterministe et est susceptible de modifications mesurables sous l’action d’un champ électrique appliqué, effet similaire à l’effet transistor.

Les effets ondulatoires de l’électron

On sait depuis de Broglie qu’à chaque objet physique est associée une onde. Cette dualité onde-corpuscule donne naissance à un ensemble de propriétés très variées, puisqu’elle associe à des manifestations particulaires – localisation, quantification... – des effets ondulatoires marqués – probabilité de présence répartie dans l’espace, interférences... Il en va de même pour les électrons dans les matériaux constituant les composants à semiconducteurs, mais les effets particulaires sont habituellement masqués par le grand nombre de particules, et les effets ondulatoires le sont aussi: les collisions changent rapidement la phase de l’onde associée aux électrons, ce qui supprime toute possibilité d’interférence. Comme les dimensions des composants sont très grandes par rapport à la longueur d’onde associée à l’électron, on est ramené à l’optique classique, où la lumière apparaît comme «localisable», se propageant en ligne droite. Rappelons qu’en optique, également, les effets ondulatoires, comme la diffraction ou les interférences lumineuses, apparaissent aussi bien plus importants lorsqu’on utilise de la lumière dite cohérente – comme celle qui provient d’un laser –, composée d’ondes lumineuses ayant une phase bien définie, à l’instar des électrons sans collision, alors que la lumière naturelle, dite incohérente, provenant de sources émettrices dont les atomes émetteurs subissent de nombreuses collisions, donne lieu à des phénomènes ondulatoires moins bien observables.

On conçoit que les effets ondulatoires électroniques seront observables lorsque l’une et/ou l’autre des conditions suivantes sera réalisée: il n’y a pas de collision et l’onde «électronique» est bien définie, monochromatique et cohérente au sens de l’optique; la dimension devient de l’ordre de ou inférieure à la longueur d’onde électronique.

Le premier cas est bien sûr celui de l’électronique balistique si l’on injecte des électrons d’énergie, donc de longueur d’onde, bien définie. On peut alors leur faire reproduire tous les effets de l’optique ondulatoire, et quelques autres en plus car on sait modifier, grâce à un potentiel électrique, l’énergie, donc la longueur d’onde, de l’électron. C’est ainsi qu’en 1990 ont été démontrés la lentille à électron, le prisme à électron, etc., aux propriétés contrôlées par une tension. Ces effets avaient été mis en évidence dès les années 1930 sur des électrons se propageant dans le vide (ils sont à la base du fonctionnement des microscopes électroniques). On sait que, dans ce cas, les électrons ont un comportement parfaitement balistique, puisqu’il n’y a aucune matière pour perturber leur mouvement ondulatoire.

Les effets d’interférences où l’on met en présence deux ondes qui s’additionnent constructivement ou destructivement suivant leurs phases respectives devraient aussi mener à des composants électroniques aux performances spectaculaires tant du point de vue de la vitesse que de celui de l’énergie de fonctionnement. Ils n’ont pas encore été mis en évidence de manière nette. Jusqu’à présent, les interféromètres à électrons dans la matière semblent dominés par des effets de taille (plusieurs ondes peuvent se propager à la fois dans le composant) et par des effets d’impuretés (atomes étrangers) qui mènent à des phénomènes d’interférences non contrôlés, reproductibles mais non déterminés a priori. Il n’est pas encore sûr que l’on puisse dépasser ce stade pour obtenir des interféromètres utilisables, commandés par une tension électrique.

La deuxième mise en évidence des effets ondulatoires, grâce à la réduction de dimension, a été effectuée à la fin des années 1970 et des applications en sont commercialisées: on produit par millions chaque mois les lasers à semiconducteurs «à puits quantiques» (essentiellement pour les lecteurs de disques compacts) et les transistors à «gaz d’électrons bidimensionnel», aussi appelés transistors à haute mobilité (pour les têtes de réception des satellites de télévision). Cela a été rendu possible par les méthodes modernes d’élaboration des matériaux semiconducteurs, qui permettent de déposer les couches de matériaux avec une précision moyenne meilleure que la distance interatomique, soit environ 0,3 nm. On peut donc structurer les matériaux semiconducteurs en tranches d’épaisseur parfaitement définie à l’avance et extrêmement homogènes.

La nature ondulatoire apparaît par la quantification du mouvement perpendiculairement au plan des couches de semiconducteurs: sans entrer dans les détails, si l’on choisit convenablement les matériaux, un électron peut être piégé dans une couche par des barrières de potentiel existant aux interfaces avec les couches adjacentes, car les nivaux d’énergie potentielle des électrons sont différents à cause de la nature différente des atomes composant les matériaux. Dans ce cas, l’onde électronique ne pouvant pas pénétrer dans les matériaux entourant la couche, la longueur d’onde est complètement déterminée par l’épaisseur de la couche, grandeur géométrique déterminée lors de la croissance des matériaux au lieu d’être déterminée par l’énergie des électrons, due en général à l’agitation thermique. De ce fait, l’énergie des électrons, à l’inverse, est maintenant due à la quantification de la longueur d’onde par l’effet de taille de la couche. On a alors créé des niveaux d’énergie artificiels dans un solide. On a aussi des électrons qui se meuvent dans un univers dit «bidimensionnel», puisque le mouvement perpendiculaire à la couche est complètement déterminé, alors que dans le plan de la couche le mouvement est libre dans les deux directions.

Les propriétés des électrons bidimensionnels sont à l’origine des nombreuses performances excellentes des transistors et lasers à base de couches quantifiées, appelés aussi puits quantiques. Mentionnons juste la très haute fréquence des transistors (ce sont les plus rapides, capables de commuter en quelques picosecondes, soit quelques milliardièmes de milliseconde!), leur faible bruit électronique (ce qui rend utilisable une antenne parabolique de faible dimension en réception de satellite de télévision), le très bas courant de seuil des lasers à puits quantiques, leur faible coût, leur excellent rendement de conversion électrique-optique.
Si nous revenons maintenant à l’intégration des composants des circuits intégrés électroniques, nous devons nous poser la question de l’utilisation des composants quantiques fonctionnant avec un ou quelques électrons. On l’aura compris: grâce à leurs très faibles dimensions, ils permettront l’intégration de milliards de composants sur une même puce. Cependant, ils ne sont pas utilisables de la même manière que les composants classiques. Ne comportant qu’un ou plusieurs électrons, ils ne peuvent «commander» qu’un autre composant de même type, à un ou plusieurs électrons. Ils sont par exemple incapables de transmettre un signal détectable sur un objet de taille macroscopique, telle une ligne d’interconnexion sur une puce, car la répartition, l’étalement de la charge de quelques électrons sur une telle ligne mène à un signal indétectable en bout de ligne.

On doit alors abandonner l’architecture «classique» des circuits électroniques faisant la logique combinatoire habituelle, tels les microprocesseurs, où l’on transmet les ordres et les données sur des distances parfois longues, en spécialisant les différentes parties du circuit. On va plutôt utiliser des réseaux réguliers de composants organisés localement en automates, tels que chaque automate du réseau ne communique qu’avec des circuits voisins, semblables à lui-même. L’intelligence, la fonctionnalité d’un tel système, appelé réseau d’automates, est contenue dans la manière de connecter les automates ainsi que dans la fonctionnalité individuelle de chacun des automates. C’est le cas des réseaux de neurones. On passe là à des architectures de puce révolutionnaires par rapport à ce que nous connaissons aujourd’hui, mais c’est le prix à payer pour utiliser les composants quantiques. En termes d’industrialisation, on peut envisager de tels circuits à l’horizon 2005-2010.

microélectronique [ mikroelɛktrɔnik ] n. f. et adj.
• 1966 ; de micro- et électronique, cf. angl. micro-electronics, micro-electronic (1960)
Didact. Ensemble des techniques conduisant à la réalisation des circuits intégrés. Adj. Circuits microélectroniques.

microélectronique nom féminin Technologie de fabrication adaptée au groupement des composants d'un dispositif électronique et des circuits qui les associent en un ensemble de très faible volume. ● microélectronique adjectif Qui concerne la microélectronique.

micro-électronique ou microélectronique
n. f. ELECTRON Ensemble des techniques utilisées pour réaliser des microstructures électroniques.

micro-électronique ou microélectronique [mikʀoelɛktʀɔnik] n. f.
ÉTYM. 1970 (v. 1957 selon G. L. E., Suppl.); de micro-, et électronique.
Didact. (techn.). Électronique utilisant les éléments très petits (circuits imprimés, etc.). Miniaturisation. || Micro-assemblages utilisés en micro-électronique.

Encyclopédie Universelle. 2012.

Игры ⚽ Поможем написать реферат

Regardez d'autres dictionnaires:

  • Microélectronique — Micro électronique La micro électronique est une spécialité du domaine de l électronique. Tel que son nom le suggère, la micro électronique s intéresse à l étude et à la fabrication de composants électroniques à l échelle micronique. Ces… …   Wikipédia en Français

  • microélectronique — mikroelektronika statusas T sritis automatika atitikmenys: angl. microelectronics vok. Mikroelektronik, f rus. микроэлектроника, f pranc. microélectronique, f …   Automatikos terminų žodynas

  • microélectronique hybride — hibridinė mikroelektronika statusas T sritis automatika atitikmenys: angl. hybrid microelectronics vok. Hybridmikroelektronik, f rus. гибридная микроэлектроника, f pranc. microélectronique hybride, f …   Automatikos terminų žodynas

  • microélectronique analogique — analoginė mikroelektronika statusas T sritis automatika atitikmenys: angl. analog microelectronics vok. analoge Mikroelektronik, f rus. аналоговая микроэлектроника, f pranc. microélectronique analogique, f …   Automatikos terminų žodynas

  • microélectronique digitale — skaitmeninė mikroelektronika statusas T sritis automatika atitikmenys: angl. digital microelectronics vok. digitale Mikroelektronik, f rus. цифровая микроэлектроника, f pranc. microélectronique digitale, f …   Automatikos terminų žodynas

  • microélectronique intégrée — integrinė mikroelektronika statusas T sritis automatika atitikmenys: angl. integrated microelectronics vok. integrierte Mikroelektronik, f rus. интегральная микроэлектроника, f pranc. microélectronique intégrée, f …   Automatikos terminų žodynas

  • Ingenieurs specialises en microelectronique et applications — École nationale supérieure des mines de Saint Étienne École Nationale Supérieure des Mines de Saint Étienne Localisation Localisation Saint Étienne, France …   Wikipédia en Français

  • Ingénieurs Spécialisés En Microélectronique Et Applications — École nationale supérieure des mines de Saint Étienne École Nationale Supérieure des Mines de Saint Étienne Localisation Localisation Saint Étienne, France …   Wikipédia en Français

  • Ingénieurs Spécialisés en MicroÉlectronique et Applications — École nationale supérieure des mines de Saint Étienne École Nationale Supérieure des Mines de Saint Étienne Localisation Localisation Saint Étienne, France …   Wikipédia en Français

  • Ingénieurs spécialisés en microélectronique et applications — École nationale supérieure des mines de Saint Étienne École Nationale Supérieure des Mines de Saint Étienne Localisation Localisation Saint Étienne, France …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”